Discoverאלישע והזוויותהאם מותר האדם מן הבינה המלאכותית? [2-13]
האם מותר האדם מן הבינה המלאכותית? [2-13]

האם מותר האדם מן הבינה המלאכותית? [2-13]

Update: 2025-07-16
Share

Description

שלום כולם, וברוכים הבאים ל"אלישע והזוויות". היום ה-15 ליולי 2025, יט תמוז תשפ"ה, ואנחנו בעונה השניה פרק 13!

בטח שמתם לב שלקח לי זמן להוציא את הפרק הזה, אבל יש לי תירוץ טוב. האמת, יש לי שלל תירוצים: המלחמה עם איראן, הילדים שיצאו לחופש, הדבר הזה שקוראים לו "עבודה" שפה ושם מתחנן לקצת תשומת לב… אבל האמת היא שיש סיבה אחת שמרחפת מעל הכל, והיא שהפרק הזה היה קשה לכתיבה. טיוטות רבות עברו עליו עד שהוא התכנס ליצירת המופת שלפניכם, ואני יכול רק לקוות שתהנו מהתוצר.

אחת הסיבות שהפרק הזה היה מאתגר לכתיבה היתה שבהמון נקודות ראיתי כיצד אני גולש מתחומי המדע והאינטואיציה אל תוך מחוזות הפילוסופיה, והגלישה הזו היתה מדרון חלקלק. לכן, הפרק מעוצב באופן שרק יצעד על גדות הצוק אבל ימנע מליפול לתהום הפילוסופיה. לאורך הפרק אני רק אתן קריאת כיוון לכמה מהמקומות שהפילוסופיה ממתינה בסבלנות למי שרוצה להרחיב, ואשאיר את ההשלמות של העניין לכם, המאזינים. מה שכן, מי שירצה לכתוב לי את מחשבותיו באחד מן הצינורות המקובלים - מייל, אתר, ערוץ טלגרם - אני כמובן שמח לנהל את השיחה הזו, אז לא להתבייש…

ו-זהו עם ההקדמות! בואו ניגש לפרק עצמו.

בפרקים האחרונים דיברנו על פונקציית המטרה, וראינו שהמחשבים זקוקים לכך שבני האדם יספקו להם את פונקציית המטרה הזו, וגם ינטרו ויגבילו את התנהגויות ה-AI בדרך להשגת המטרה. בכל מקום שבני האדם מסירים את מבטם, יש סיכוי שה-AI ינוע באופן עיוור לכיוונים שנוגדים את כוונות בני האדם. אפילו שבני האדם הגדירו את פונקציות המטרה, הן תמיד רק ניסוח חלקי של המטרות האנושיות, ובנוסף בני אדם עסוקים כל הזמן בגילוי ועדכון המטרות שלהם. כיוון שכך, המכונות זקוקות כל הזמן לאינפוזיה מתחדשת של מטרות כדי להשאר רלוונטיות, וככל שהכח שנתון בידם גדול יותר, כך התלות שלהם במשוב הזה מבני האדם גדלה.

איפה ראינו משהו כזה בעבר? נכון, ראינו את זה בפרקים 6 ו-7, שם התמקדנו בדאטה שהמכונות זקוקות לה. ראינו שם שאימון של מערכות AI חייב להיעשות על בסיס דאטה אנושי דווקא, ושאי אפשר לשים את רוב כובד המשקל של האימון על דאטה סינתטי שנוצר על ידי מכונה אחרת. וכשמחברים את שני הפרמטרים הללו יחד אנו מקבלים את התובנה הראשונה של הפרק: שמסיבה כלשהי, השורה התחתונה היא שהמכונה לא מסוגלת לעשות את מחזור החשיבה המלא שבני אדם עושים, לפחות לא בפרדיגמות השולטות כיום. היא יכולה לפעול באופן מרשים מאד בתוך מסגרות של מטרות ודאטה שהוגדרו לה מראש, אבל את המסגרות עצמן היא לא מסוגלת לייצר. ובהתחשב בכך שבני אדם עושים זאת באופן טבעי לגמרי, שווה לשאול - מדוע? מה בדיוק חסר למכונה שיש לנו, ומה בדיוק היא מקבלת מאיתנו?

גם כאן, חלקים מהתשובה נרמזו לאורך העונה. בתור התחלה, בפרקים 6 ו-7 הרחבנו על כך שיש אינסוף דרכים להסתכל על העולם ולדבר עליו, ורק חלק קטן מהם מעניין את בני האדם. כשהבינה המלאכותית משתמשת בשפה האנושית, היא בעצם מסתמכת באופן כבד מאד על האופן הספיציפי שבו בני אדם ממשיגים את העולם, כפי שראינו בפרק החמישי. ובפרקים האחרונים ראינו שהאבחנה הזו תקפה גם לגביי פונקציית המטרה: יש אינסוף פונקציות מטרה שניתן להגדיר ולאמץ - אבל רק חלק קטן מהם משקף מטרות שבני האדם יזדהו איתן. אי אפשר לדעת באופן רציונלי טהור איזה פלח הוא הפלח המעניין, ולכן המכונה חייבת שנספק לה את השפה, התמונות, התיוגים והמטרות שלנו.

מאותה הסיבה, גם לאחר שסיפקנו לה את כל המידע הזה, יש לה עדיין רק שבריר מהתמונה השלמה, גרסה מפוקסלת של מציאות רציפה. גם אם נאכיל אותה את האינטרנט כולו, לא יהיה בכך יותר מייצוג חלקי בלבד של התפיסה האנושית את המציאות, ולכן באופן עקרוני התלות של המכונה בבני אדם בשר-ודם לנצח לא תסתיים. פעמים רבות חוקרים מתמכרים לרעיון שמספיק שנחפש מתחת לפנס, בדאטה שכבר אספנו, וכל פעם מחדש מתברר שהידע שאספנו הוא חלקי בלבד.

נניח, הנה דוגמה יפה ששמעתי לפני הרבה שנים במהלך הדוקטורט שלי. בארצות הברית של אמריקה החליטה חברת מזון מסויימת להוציא מוצר חדש - פאי קלאסי, אבל קטן, פאי אישי במקום הגודל המשפחתי הרגיל. כשהם שאלו את עצמם כמה לייצר מכל סוג - פאי אוכמניות, פאי תפוחים וכן הלאה - היה להם ברור שלפאי התפוחים יהיה הביקוש הגבוה ביותר. כל הסטטיסטיקות הראו שזהו הפאי הפופולרי במדינה, עד כדי כך שיש אפילו ביטוי שכזה, As american as apple pie . אלא שלמרבה ההפתעה, כשהשיקו את המוצר החדש הם ראו נפילה במכירות של פאי תפוחים. לאחר מחקר נוסף הם גילו את הסיבה - מסתבר שפאי התפוחים מעולם לא היה הפאי האהוב על רוב האנשים - הוא פשוט הפאי שרוב האנשים לא שונאים. ולכן, הפאי המשפחתי תמיד התכנס לפאי תפוחים, הפאי שאמא לילדים יכולה לקנות בידיעה שאף אחד לא יתלונן. אבל ברגע שהיתה לאנשים אפשרות לקנות משהו אישי, הם הלכו לכיוונים אחרים. אתם מבינים - כל הדאטה המצטבר מן העבר לא הצליח לעלות על הנקודה הזו, ורק המשוב הישיר מבני האדם חשף אותה.

את כל המלל ששפכתי פה אפשר בעצם לתמצת ולומר פשוט כך: בני האדם הם הלקוחות של המכונות, והלקוח תמיד צודק. ואמנם המוכר יכול לנחש מה הלקוח ירצה מחר, אבל זה לעולם לא יצא מכלל ניחוש. הרי הלקוח עצמו לא עקבי במה הוא רוצה ולא תמיד יודע מה הוא רוצה, אז מה לנו שנלין על המכונות?

אלא שאם באמת זה היה עיקר ההבדל, זה נשמע קצת שרירותי. מה מיוחד בבני אדם, שהם זוכים לקבוע את המיסגור של המחשבים? למה שלא ניתן למשהו אחר להיות הלקוח, לקבוע את הדאטה המעניין ואת המטרות הרלוונטיות. אולי ניתן לאיזה רובוט נחמד לעשות זאת?

השאלה הזו מובילה אותנו לעוד הבדל שורשי בין בינה מלאכותית כיום לבין בני אדם, ושהזכרנו בקצרה בפרק התשיעי: כדי לבחור מטרות לא מספיק כח חישובי, צריכים תודעה. כלומר, את בני האדם יכולים להחליף גם ישויות אחרות, כמו חייזרים, כלבים ודולפינים. אפילו מחשבים עתידיים יוכלו לעשות זאת אם תהיה להם תודעה. אבל עד אז - האפשרות הזו איננה חלק מארגז הכלים של המכונות.

העובדה שאי אפשר להגדיר מטרות ללא שימוש בתודעה זה דבר ברור מאליו, מעצם ההגדרה של מה זו "מטרה". כך לדוגמה במילון ספיר המקוון ההגדרה היא "דבר שרוצים להשׂיגו", באתר מילוג ההגדרה היא "תוצאה רצויה", ובויקיפדיה הלכו על "משהו שרוצים בהשגתו". בשלושת ההגדרות מופיע הפועל "רצה" - רצון, ורק ישויות בעלות תודעה יכולות לרצות דברים. ולמי שחושב שאני פשוט עושה כאן התקטננות לשונית, הוא מוזמן לנסות את כוחו בהגדרה של המילה "מטרה" ללא הישענות, באופן ישיר או עקיף, על קיומו של רצון. אני מזכיר לכם את התהום הפילוסופית שלפתחנו, כן?

לא רק המטרות שלנו, אלא גם הדאטה שאנו מספקים לְמערכות הבינה המלאכותית צבוע בצבעי התודעה שלנו. השפה שלנו, בתור התחלה, מעוצבת על ידי התודעה שלנו, ומותאמת דווקא לחוויה האנושית. מילים כמו "אהבה" ו"שנאה" משקפים תחושות שלא קיימות ללא תודעה. מילים כמו "שולחן" נשמעות בתחילה כאילו הן מתארות מציאות אובייקטיבית, אבל בני אדם מחליטים איפה משהו מפסיק להיות שולחן ומתחיל להיות "כסא" או, לחילופין, "אוהל". על גבי השפה הזו נבנים גם כל התיוגים שאנו עושים לדאטה שאנו מספקים למחשבים - לתמונות, לסרטונים וכן הלאה. ובנוסף, התמונות והסרטונים הללו עצמם מצולמים ומוסרטים על ידינו, עם דגשים אנושיים - איפה הפוקוס של המצלמה בסצינה בסרט, מה המרחק שהיא תופסת ואפילו דברים כמו טווח גלי האור שהמצלמה מסוגלת לקלוט - הכל ספוג ומודרך על ידי הדברים שמעניינים בני אדם, האופן שבו בני האדם מתממשקים איתם וכן הלאה - כלומר שמושפעים מהתודעה שלהם, שלנו.

ושלא תחשבו שהרצונות הללו והבחירות הללו הן סתם קפריזה אנושית. יש להן עוגן הישרדותי חזק שעוצב לאורך ההיסטוריה הארוכה של המין האנושי, ובכך הם גם משקפים אמיתות מסויימות על המציאות. דברים ברוח זו אומר ד"ר ג'ורדן פיטרסון בקטע הבא, עוד מימיו כפרופסור לפסיכולוגיה באוניברסיטה בקנדה, לגביי חוקר בשם בינסוואגר:

"מה שאנו תופסים הם, בראש ובראשונה, לא רשמים של טעם, צליל, ריח או מגע. אפילו לא דברים או חפצים, אלא משמעויות, מה המשמעות של הדבר עבורכם... הדרך שרובכם חושבים על האופן שבו אתם מעבדים מפגש עם חפצים בעולם, הולכת ככה: שיש חפצים בעולם, אתם רואים את החפצים, אתם חושבים על החפצים, אתם מעריכים את החפצים, אתם מחליטים כיצד לפעול ביחס לחפצים, ואז אתם פועלים. נכון?... אבל זה שגוי! זה לא עובד ככה...

מה שבינדסוונגר טוען הוא שמה שאתם רואים בעולם הן משמעויות, וקודם מתרחש זיהוי המשמעות ורק אז מגיע זיהוי החפץ... בני אדם חייבים לתפוס משמעויות קודם כי אנחנו רוצים לשרוד, להישאר בחיים… העולם מלא בדברים האלה שיש להם משמעות שרלוונטיות להישרדות שלכם. ומה שאתם תופסים קודם הוא הרלוונטיות של הדפוס החיצוני להישרדות הזו..."

זו הסיבה העמוקה יותר, אם כן, שהמכונה לא יכולה להיות מקור הדאטה ופונקציות המטרה. המכונה לא רוצה דבר, אפילו לא לשרוד, ולכן כל פונקציות המטרה שקולות בפניה וכל ייצוגי המציאות טובות בעיניה באותה מידה. גם לאחר שהיא קיבלה אל קרבה פונקציות מטרה כאלו ואחרות, היא עדיין לא רוצה אותן, אלא פשוט מבצעת את מה שמוגדר אצלה בתוכנה. בסוף אנחנו תמיד חוזרים לכך שרק יצורים בעלי תודעה יכולים לחלץ את המכונה מן האפאתיות הזו, להגדיר מה טוב ומה רע, מה המאפיינים במציאות שראויים לתשומת לב, ולאיזה כיוון כדאי לנוע.

ההשפעות של התודעה על הדיון שלנו הן רחבות מאד. התודעה פותחת בפני האדם סוגי חשיבה שחסומים לגמרי עבור מערכות חסרות תודעה, כמו המחשבים של היום, ואזכיר כאן רק עוד אחת. כיוון שאין להם תודעה, ההתנהגות של מכונות ורובוטים בהווה נקבעת באופן דטרמיניסטי על ידי העבר, בדיוק כמו העתיד של דוממים אחרים כמו אבנים פשוטות. לעומת זאת, יצורים בעלי תודעה מסוגלים לפעול מכח העתיד - מתוך שאיפה להגיע לעתיד מדומיין שלא בא לעולם עדיין וקיים רק במחשבותיהם. רק כך נולדים להם סיפורים מעוררי-השראה על אנשים שהצליחו כנגד כל הסיכויים, שלא נתנו לעבר שלהם להכתיב להם את עתידם. "אם תרצו, אין זו אגדה" אמר הרצל, והניע תהליכים ליצירת מדינה שלא היתה קיימת 2000 שנה עבור עם חסר-מדינה שהיה מפוזר בגלות. כיוון שאבנים ורובוטים פועלים רק מכח העבר וההווה, הם חייבים שאנחנו נספק להם פונקציות מטרה, ייצוג מתמטי בהווה שיכול לגרום למחשב להתנהג כאילו הוא מכוון אל עבר עתיד כלשהו.

הדברים שאמרתי כאן רומזים, כפי שאולי שמתם לב, לרעיון שלבני אדם יש רצון חופשי, free will, מנגנון שמאפשר להם להשתחרר מהדטרמינזם שהטבע הרגיל - והמחשבים - כבולים בו. האם אתם מאמינים שיש לבני אדם רצון חופשי שכזה, או שלדעתכם גם בני אדם שבויים של העבר והכל קבוע מראש? עם כל זה שהפיתוי הוא גדול לפתוח סוגרים ארוכים ולדבר על הנושא, אני התחייבתי להתאפק, ומילה זו מילה.

זרמנו עד הנקודה הזו עם ההנחה שמחשבים אינם בעלי תודעה. אבל האם הם יכולים להיות כאלו?

אולי. אולי לא. קשה מאד לדעת כיוון שאנחנו בקושי מבינים מה זו תודעה ואיך היא מתהווה במוח שלנו. נכון, אנחנו יודעים לזהות במוח שלנו את האזורים שמופעלים בזמן שאנחנו בתודעה מוגברת - לאזור הזה קוראים קליפת המוח, cerebral cortex באנגלית - אבל האם כל תודעה חייבת להתממש באופן הזה? אין לנו באמת מושג. אני מניח שלכם יש תודעה ואתם מניחים שלי יש כזו, בעיקר בגלל שאנחנו דומים זה לזה, אבל אולי גם למיקרופון שאני מדבר אליו עכשיו יש תודעה ואני פשוט לא יודע לזהות זאת? איך ניתן בכלל לדעת?

לכן, הפרק הזה מכוון למשהו צנוע יותר: שנסכים, לפחות, שזה הרף שצריך לחצות אותו כדי שמחשב יוכל לחשוב כמו בני אדם. לא מספיק לנו מבחן טיורינג, אל

Comments 
loading
In Channel
loading
00:00
00:00
1.0x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

האם מותר האדם מן הבינה המלאכותית? [2-13]

האם מותר האדם מן הבינה המלאכותית? [2-13]

אלישע